การสร้าง S3 เพื่อนำมาวิเคราะห์ใน QuickSight
สวัสดีครับ ในหัวบล็อกครั้งนี้ผมจะมาแสดงตัวอย่างวิธีการใช้งาน S3 โดยกำหนดให้เป็น Datasource และนำมาวิเคราะห์เพื่อแสดงผลผ่าน QuickSight ครับผม
สิ่งที่ต้องมี
ให้เราทำการสร้าง Bucket ขึ้นมาใน S3 ซึ่งเราสามารถทำตามวิธีการในลิ้งค์ด้านล่างนี้ได้เลยครับ
ขั้นตอนอาจจะซับซ้อนนิดนึง แนะนำให้เพื่อนๆ ลองอ่านรายละเอียดให้ดีก่อนลงมือทำในแต่ละขั้นตอน เพื่อป้องกันความผิดพลาดนะครับ
ขั้นแรกให้สร้าง S3 ขึ้นมา จากนั้นสร้าง EC2 ที่เชื่อมต่อกับ Role และสามารถเข้าถึง S3 ได้เตรียมไว้ โดยผมจะระบุรายละเอียดขั้นตอนการสร้างและแปะลิงก์ที่ด้านล่างนี้ครับ
S3 Buckets ที่สร้างเสร็จแล้ว
การสร้าง Buckets ใน Amazon S3 โดยใยตัวอย่างที่ผมทำจะเป็นฟอร์มการตั้งชื่อแบบนี้นะครับ
Bucket name: [name]-test-[date]
EC2 ที่เชื่อมต่อกับ Role และสามารถเข้าถึง S3 ได้การสร้าง Role ใน IAM การ Create Key Pair การ Launch Instance การ Connect to EC2 by PuTTY
เมื่อติดตั้ง S3 และ EC2 เสร็จเรียบร้อยแล้ว ให้ทดสอบการเข้าถึง S3 โดยการดูข้อมูลใน S3 ผ่านคำสั่ง AWS CLI และเปลี่ยน Time Zone EC2 ดังนี้ครับ
รันคำสั่งของ AWS CLI S3 เพื่อดูข้อมูลใน S3 โดยใช้คำสั่งaws s3 ls s3://
+bucket_name
ของคุณ
aws s3 ls s3://chawish-test-20220726
Output↓↓↓ ถ้าไม่ขึ้น Error และแสดงหน้าจอเหมือนด้านล่างนี้ก็ทำขั้นตอนถัดไปได้เลยครับ
รันคำสั่งนี้เพื่อตรวจสอบเวลาปัจจุบัน
date
รันคำสั่งนี้เพื่อเปลี่ยนเวลาจาก UTC ให้เป็น Asia/Bangkok (+07)
ln -sf /usr/share/zoneinfo/Asia/Bangkok /etc/localtime
และรันคำสั่ง
date
เพื่อตรวจสอบเวลาอีกครั้ง ก็จะเห็นว่าเวลาปัจจุบันเป็น Asia/Bangkok (+07) เรียบร้อยแล้วครับ
ตั้งค่าการสร้างและอัปโหลดไฟล์ JSON ไปยัง S3 ทุกๆ 1 นาทีโดยอัตโนมัติ
การสร้างไฟล์ Python
ขั้นตอนนี้เป็นการสร้าง Python โดยให้ไฟล์ที่จะสร้างนี้อัปโหลดไปยัง S3 ตามเวลาที่เรากำหนดโดยอัตโนมัติ ! เมื่อพร้อมแล้วมาเริ่มกันเลยครับ
รันคำสั่งนี้เพื่อตรวจสอบเวอร์ชัน Python ที่อยู่ใน EC2
python3 --version
โดยปกติแล้ว python จะมีอยู่ใน EC2 ให้อยู่แล้วครับ
สำหรับผู้ใช้งานที่ตรวจสอบเวอร์ชันแล้ว กรณีที่ไม่มี python ตามที่กล่าวไว้ ให้รันคำสั่งด้านล่างนี้เพื่อติดตั้งได้เลยครับ
(ผู้ใช้งานที่มีอยู่แล้ว ให้ข้ามขั้นตอนนี้ไปได้เลยครับ)
yum install python3 -y
รันคำสั่งนี้เพื่อดาวน์โหลดไฟล์ Python
wget https://raw.githubusercontent.com/classmethod-thailand/cmth_seminar/develop/s3_athena_material/create_sample_json_upload_s3.py
เมื่อทำการ wget มาแล้ว ให้เพิ่ม path/json/
เข้าไปเหมือนกับ Code ด้านล่างนี้
โดยเพิ่มเข้าไประหว่าง 【 {s3_bucket_name} กับ {s3_path} 】 ก็จะเป็น{s3_bucket_name}/json/{s3_path}
subprocess.run(["/usr/bin/aws", "s3", "cp", file_name, f"s3://{s3_bucket_name}/json/{s3_path}/"])
รันคำสั่งนี้เพื่อเข้ามาที่ไฟล์ create_sample_json_upload_s3.py
และเปลี่ยนชื่อ s3_bucket_name ในขั้นตอนถัดไป
vi create_sample_json_upload_s3.py
เมื่อเข้ามาที่ตัวไฟล์แล้วทำการเปลี่ยนชื่อ s3_bucket_name ให้เป็นชื่อ Bucket ของเรา
ดูตัวอย่าง Code ที่นี่: create_sample_json_upload_s3.py
- วิธีเปลี่ยนชื่อ s3_bucket_name
- กดปุ่ม
i
ที่แป้นพิมพ์ ให้"create_sample_json_upload_s3.py" 26L, 669B
ที่อยู่ด้านล่างซ้ายเปลี่ยนเป็น--INSERT--
- หาคำว่า
s3_bucket_name
แล้วคัดลอก Bucket ของเราที่สร้างไว้ก่อนหน้านี้มาใส่แทนชื่อเก่า เช่น ในบทความนี้คือชื่อchawish-test-20220726
เป็นต้น- เมื่อเปลี่ยนชื่อ s3_bucket_name เสร็จแล้วทำการ Save ตามนี้
- กดปุ่ม
Esc
ให้--INSERT--
หายไป- จากนั้นพิมพ์
:x
หรือ:wq
+ Enter
รันคำสั่งนี้เพื่ออัปโหลดไฟล์ JSON ไปยัง S3
python3 create_sample_json_upload_s3.py
Output↓↓↓
เมื่อรันคำสั่งนี้ไปแล้ว ตัวไฟล์ JSON จะถูกอัปโหลดขึ้นไปที่ S3 ครับ
root@ip-172-31-30-143:~
[root@ip-172-31-30-143 ~]# python3 create_sample_json_upload_s3.py
upload: ./20220614_140411.json to s3://chawish-test-20220726/json/20220726/20220726_123000.json
[root@ip-172-31-30-143 ~]#
เข้ามาที่ S3 Bucket ของเรา แล้วทำการ Reload จะเห็นว่ามีไฟล์เพิ่มขึ้นมา คลิกเข้ามาที่โฟลเดอร์ตามวันที่ปัจจุบัน
ทีนี้ให้ทำการดาวน์โหลดไฟล์ JSON โดยติ๊ก✅
ไฟล์ที่ต้องการดาวน์โหลด แล้วกดปุ่มDownload
ได้เลยครับ
เปิดดูไฟล์ด้วยโปรแกรม Notepad ของ Windows ได้เลย ซึ่งข้อมูลจะแสดงตามรูปภาพด้านล่างครับ
รันคำสั่งนี้เพื่ออัปโหลดไฟล์ JSON ไปยัง S3 อีกครั้ง
python3 create_sample_json_upload_s3.py
Output↓↓↓
เมื่อรันคำสั่งนี้ไปแล้ว ตัวไฟล์ Python จะสร้างและอัปโหลดไฟล์ JSON ขึ้นไปที่ S3 ครับ
root@ip-172-31-30-143:~
[root@ip-172-31-30-143 ~]# python3 create_sample_json_upload_s3.py
upload: ./20220614_140605.json to s3://chawish-test-20220726/json/20220726/20220726_135000.json
[root@ip-172-31-30-143 ~]#
เปิดดูไฟล์ด้วยโปรแกรม Notepad ของ Windows อีกครั้ง ทีนี้ลองเปิดเทียบกันดู จะเห็นว่าเวลาจะต่างกันตามระยะเวลาที่เราทำการอัปโหลดไป
ขั้นตอนต่อไปจะเป็นการแก้ไขไฟล์ crontab เพื่อที่จะทำให้สามารถอัปโหลดไฟล์ JSON ไปยัง S3 ได้โดยอัตโนมัติ
รันคำสั่งนี้เพื่อเข้ามาที่ไฟล์ crontab และทำการเพิ่ม Code ในขั้นตอนถัดไป
vi /etc/crontab
ทีนี้เรามาแก้ไขไฟล์ crontab โดยการเพิ่ม Code ตามนี้
» กดปุ่มi
ให้คำว่า"/etc/crontab" 15L, 451B
ที่อยู่ด้านล่างซ้ายเปลี่ยนเป็น-- INSERT --
» Copy Code ด้านล่างนี้ และนำไปวางที่บรรทัดถัดไปของ# * * * * * user-name command to be executed
* * * * * root /usr/bin/python3 /root/create_sample_json_upload_s3.py
root@ip-172-31-30-143:~
SHELL=/bin/bash
PATH=/sbin:/bin:/usr/sbin:/usr/bin
MAILTO=root
# For details see man 4 crontabs
# Example of job definition:
# .---------------- minute (0 - 59)
# | .------------- hour (0 - 23)
# | | .---------- day of month (1 - 31)
# | | | .------- month (1 - 12) OR jan,feb,mar,apr ...
# | | | | .---- day of week (0 - 6) (Sunday=0 or 7) OR sun,mon,tue,wed,thu,fri,sat
# | | | | |
# * * * * * user-name command to be executed
* * * * * root /usr/bin/python3 /root/create_sample_json_upload_s3.py // วาง Code ที่นี่
~
~
~
~
~
-- INSERT -- 15,70 All
เมื่อเพิ่ม Code เสร็จแล้วทำการ Save ตามนี้
» กดปุ่มEsc
ให้คำว่า-- INSERT --
ที่อยู่ด้านล่างซ้ายหายไป
» พิมพ์:x
หรือ:wq
+ Enter
root@ip-172-31-30-143:~
SHELL=/bin/bash
PATH=/sbin:/bin:/usr/sbin:/usr/bin
MAILTO=root
# For details see man 4 crontabs
# Example of job definition:
# .---------------- minute (0 - 59)
# | .------------- hour (0 - 23)
# | | .---------- day of month (1 - 31)
# | | | .------- month (1 - 12) OR jan,feb,mar,apr ...
# | | | | .---- day of week (0 - 6) (Sunday=0 or 7) OR sun,mon,tue,wed,thu,fri,sat
# | | | | |
# * * * * * user-name command to be executed
* * * * * root /usr/bin/python3 /root/create_sample_json_upload_s3.py
~
~
~
~
~
:x
เมื่อเสร็จสิ้นจากการเพิ่ม Code แล้ว หลังจากนี้ตัวไฟล์ Python จะทำการสร้างและอัปโหลดไฟล์ JSON ขึ้นไปที่ S3 โดยอัตโนมัติทุกๆ 1 นาทีครับ
ต่อไปรันคำสั่งนี้ทันทีเพื่อตรวจสอบการทำงานของไฟล์ crontab
tail -f /var/log/cron
Output↓↓↓
เมื่อได้หน้าจอแบบนี้แล้วรอ 1 นาที
root@ip-172-31-30-143:~
[root@ip-172-31-30-143 ~]# tail -f /var/log/cron
Jun 14 14:01:01 ip-172-31-30-143 run-parts(/etc/cron.hourly)[5372]: finished 0anacron
Jun 14 14:10:01 ip-172-31-30-143 CROND[5411]: (root) CMD (/usr/lib64/sa/sa1 1 1)
Jun 14 14:18:01 ip-172-31-30-143 crond[2254]: (*system*) RELOAD (/etc/crontab)
Jun 14 14:18:01 ip-172-31-30-143 CROND[5430]: (root) CMD (/usr/bin/python3 /root/create_sample_json_upload_s3.py)
Jun 14 14:19:01 ip-172-31-30-143 crond[2254]: (*system*) RELOAD (/etc/crontab)
Jun 14 14:20:01 ip-172-31-30-143 CROND[5451]: (root) CMD (/usr/lib64/sa/sa1 1 1)
Jun 14 14:23:01 ip-172-31-30-143 crond[2254]: (*system*) RELOAD (/etc/crontab)
Jun 14 14:23:01 ip-172-31-30-143 CROND[5464]: (root) CMD (/usr/bin/python3 /root/create_sample_json_upload_s3.py)
Jun 14 14:24:01 ip-172-31-30-143 CROND[5481]: (root) CMD (/usr/bin/python3 /root/create_sample_json_upload_s3.py)
Jun 14 14:25:01 ip-172-31-30-143 crond[2254]: (*system*) RELOAD (/etc/crontab)
เมื่อครบ 1 นาทีแล้ว จะเปลี่ยนเป็นแบบนี้โดยให้สังเกตเวลาปัจจุบัน เช่นJun 14 14:29:01
root@ip-172-31-30-143:~
[root@ip-172-31-30-143 ~]# tail -f /var/log/cron
Jun 14 14:01:01 ip-172-31-30-143 run-parts(/etc/cron.hourly)[5372]: finished 0anacron
Jun 14 14:10:01 ip-172-31-30-143 CROND[5411]: (root) CMD (/usr/lib64/sa/sa1 1 1)
Jun 14 14:18:01 ip-172-31-30-143 crond[2254]: (*system*) RELOAD (/etc/crontab)
Jun 14 14:18:01 ip-172-31-30-143 CROND[5430]: (root) CMD (/usr/bin/python3 /root/create_sample_json_upload_s3.py)
Jun 14 14:19:01 ip-172-31-30-143 crond[2254]: (*system*) RELOAD (/etc/crontab)
Jun 14 14:20:01 ip-172-31-30-143 CROND[5451]: (root) CMD (/usr/lib64/sa/sa1 1 1)
Jun 14 14:23:01 ip-172-31-30-143 crond[2254]: (*system*) RELOAD (/etc/crontab)
Jun 14 14:23:01 ip-172-31-30-143 CROND[5464]: (root) CMD (/usr/bin/python3 /root/create_sample_json_upload_s3.py)
Jun 14 14:24:01 ip-172-31-30-143 CROND[5481]: (root) CMD (/usr/bin/python3 /root/create_sample_json_upload_s3.py)
Jun 14 14:25:01 ip-172-31-30-143 crond[2254]: (*system*) RELOAD (/etc/crontab)
Jun 14 14:29:01 ip-172-31-30-143 crond[2254]: (*system*) RELOAD (/etc/crontab)
Jun 14 14:29:01 ip-172-31-30-143 CROND[5554]: (root) CMD (/usr/bin/python3 /root/create_sample_json_upload_s3.py)
เข้ามาที่ S3 Bucket จะเห็นว่ามีไฟล์ JSON อันที่ 3 เพิ่มขึ้นมาโดยอัตโนมัติ
และหลังจากนี้ไฟล์ JSON ก็จะถูกสร้างและอัปโหลดไปที่ S3 เรื่อยๆ ทุกๆ 1 นาที สมมุติเวลาผ่านไปแล้ว 5 นาที ไฟล์ก็จะถูกอัปโหลดไป 5 ไฟล์ตามเวลาตัวอย่างด้านล่างนี้ครับ
Jun 14 16:39:03
Jun 14 16:38:03
Jun 26 16:37:03
Jun 26 16:36:03
Jun 26 16:35:03
root@ip-172-31-30-143:~
[root@ip-172-31-30-143 ~]# tail -f /var/log/cron
Jun 14 14:01:01 ip-172-31-30-143 run-parts(/etc/cron.hourly)[5372]: finished 0anacron
Jun 14 14:10:01 ip-172-31-30-143 CROND[5411]: (root) CMD (/usr/lib64/sa/sa1 1 1)
Jun 14 14:18:01 ip-172-31-30-143 crond[2254]: (*system*) RELOAD (/etc/crontab)
Jun 14 14:18:01 ip-172-31-30-143 CROND[5430]: (root) CMD (/usr/bin/python3 /root/create_sample_json_upload_s3.py)
Jun 14 14:19:01 ip-172-31-30-143 crond[2254]: (*system*) RELOAD (/etc/crontab)
Jun 14 14:20:01 ip-172-31-30-143 CROND[5451]: (root) CMD (/usr/lib64/sa/sa1 1 1)
Jun 14 14:23:01 ip-172-31-30-143 crond[2254]: (*system*) RELOAD (/etc/crontab)
Jun 14 14:23:01 ip-172-31-30-143 CROND[5464]: (root) CMD (/usr/bin/python3 /root/create_sample_json_upload_s3.py)
Jun 14 14:24:01 ip-172-31-30-143 CROND[5481]: (root) CMD (/usr/bin/python3 /root/create_sample_json_upload_s3.py)
Jun 14 14:25:01 ip-172-31-30-143 crond[2254]: (*system*) RELOAD (/etc/crontab)
Jun 14 14:29:01 ip-172-31-30-143 crond[2254]: (*system*) RELOAD (/etc/crontab)
Jun 14 14:29:01 ip-172-31-30-143 CROND[5554]: (root) CMD (/usr/bin/python3 /root/create_sample_json_upload_s3.py)
Jun 14 14:30:01 ip-172-31-30-143 CROND[5574]: (root) CMD (/usr/lib64/sa/sa1 1 1)
Jun 14 14:30:01 ip-172-31-30-143 CROND[5575]: (root) CMD (/usr/bin/python3 /root/create_sample_json_upload_s3.py)
Jun 14 14:31:01 ip-172-31-30-143 CROND[5594]: (root) CMD (/usr/bin/python3 /root/create_sample_json_upload_s3.py)
Jun 14 14:32:01 ip-172-31-30-143 CROND[5608]: (root) CMD (/usr/bin/python3 /root/create_sample_json_upload_s3.py)
Jun 14 14:33:01 ip-172-31-30-143 CROND[5622]: (root) CMD (/usr/bin/python3 /root/create_sample_json_upload_s3.py)
Jun 14 14:34:01 ip-172-31-30-143 CROND[5636]: (root) CMD (/usr/bin/python3 /root/create_sample_json_upload_s3.py)
เข้ามาที่ S3 Bucket อีกครั้ง จะเห็นว่ามีไฟล์ JSON เพิ่มขึ้นมาใหม่ 5 ไฟล์โดยอัตโนมัติ
ในส่วนของหัวข้อ 1. ตั้งค่าการสร้างและอัปโหลดไฟล์ JSON ไปยัง S3 ทุกๆ 1 นาทีโดยอัตโนมัติ นี้ก็เสร็จเรียบร้อยแล้ว ผมจะทบทวนสิ่งที่ได้ทำมาจนถึงตอนนี้อีกครั้งครับ
- สิ่งที่ได้ทำไปแล้วในหัวข้อ
ตั้งค่าการสร้างและอัปโหลดไฟล์ JSON ไปยัง S3 ทุกๆ 1 นาทีโดยอัตโนมัติ
- การสร้าง Buckets ใน Amazon S3
- การสร้าง Role ใน IAM
- การ Connect to EC2 by PuTTY
- ดาวน์โหลดไฟล์ Python
- เปลี่ยนชื่อ s3_bucket_name ในไฟล์ Python:
create_sample_json_upload_s3.py
- รันคำสั่ง Python3 โดยใช้ไฟล์ Python เพื่อสร้างและอัปโหลดไฟล์ JSON ไปยัง S3
- แก้ไขไฟล์ crontab โดยการเพิ่ม Code ที่สามารถทำให้สร้างและอัปโหลดไฟล์ JSON ไปยัง S3 ทุกๆ 1 นาทีได้โดยอัตโนมัติ
เมื่อเข้าใจวิธีการจัดการไฟล์ Python เพื่อสร้างและอัปโหลดไฟล์ JSON ไปยัง S3 โดยอัตโนมัติแล้ว ให้เริ่มทำหัวข้อถัดไปได้เลยครับ
ตั้งค่าไฟล์ Upload ให้เป็นนามสกุล .json
อันดับแรกให้เราเปิด Notepad ขึ้นมาก่อนและใส่ข้อมูลข้างล่างนี้ลงไปครับ
{ "fileLocations": [ { "URIPrefixes": [ "s3://chawish-test-20220726/json/" ] } ], "globalUploadSettings": { "format": "JSON" } }
และในส่วนของ s3: ให้เราใส่ชื่อ S3 Bucket ที่เราสร้างลงไปนะครับ ตามด้วย file path ที่เราใช้งานโดยในตัวอย่างผมจะใช้ /json/ นะครับในการเก็บข้อมูล
จากนั้นให้เรา Save file เป็นชื่อ my_manifest นามสกุล .JSON และชื่อ ตามรูปภาพด้านล่างได้เลยครับ
ต่อไปให้ทำการ Upload ไฟล์ my_manifest.json ลงไปยัง Bucket S3 นะครับ
เมื่อเราลากไฟล์ลงไปใน Bucket ก็จะแสดงข้อมูลแบบนี้ให้เรารู้ว่าตอนนี้ไฟล์ถูกวางไว้ที่ไหน
เมื่อเช็คความถูกต้องของไฟล์และตำแหน่งแล้วก็ทำการกดปุ่ม Upload ได้เลยครับ
และนี้คือผลลัพธ์หลังจาก Upload ไฟล์เสร็จเรียบร้อยครับ
Amazon QuickSight
ในส่วนนีจะเป็นการเริ่มต้นใช้งาน QuickSight นะครับ โดยเราจะเริ่มจากการสร้าง Account เพื่อใช้งาน QuickSight กันครับซึ่งสามารถทำตามขั้นตอน
การสมัครบัญชี QuickSight ใน AWS
Description: Amazon QuickSight เป็นบริการ Business Intelligence (BI) ที่ปรับขนาดได้สำหรับระบบคลาวด์ สำหรับผู้เริ่มที่ต้องการใช้งาน สามารถสมัครบัญชีเพื่อเข้าใช้งาน QuickSight ได้ง่ายๆ เพียงแค่ใช้อีเมล
ครั้งนี้ ผมจะมาแนะนำวิธีการสมัครบัญชี QuickSight ใน AWS
การสมัครบัญชี QuickSight
ค้นหา ?︎QuickSight
» เลือกQuickSight
ครั้งนี้ผมจะสร้างบัญชีโดยใช้ Standard Edition
» คลิกStandard
ทำในส่วนของ Create your QuickSight account ตามนี้
» เลือก Select a region:Asia Pacific (Singapore)
» ใส่ชื่อบัญชีของเราตามต้องการ เช่น QuickSight account name:cmth-chawish
» ใส่อีเมลที่ต้องการสมัครบัญชี เช่น Notification email address:chawish.tilakul@classmethod.co.th
เลื่อนลงมาด้านล่างสุด คลิกFinish
QuickSight access to AWS services จะใช้เป็นค่าเริ่มต้น ซึ่งในการใช้งานนี้ให้เราติ้กเลือกใช้งาน S3 ด้วย
จากนั้นเลือก Bucket ที่เราต้องการจะใช้งานซึ่งในตัวอย่างของผมคือ chawish-test-20220726 นะครับ
หลังจากนั้นกดปุ่ม Finish เพื่อยืนยันการตั้งค่าครับ
หน้า Popup Welcome to QuickSight ให้คลิก✕
กากบาทหรือคลิกNext
เพื่อดูรายละเอียดการทำงานเบื้องต้นได้
เมื่อสร้างบัญชี QuickSight เสร็จเรียบร้อยแล้ว ก็จะได้หน้าตาแบบนี้
การสร้าง Dataset
ให้เราเลือกเมนูหัวข้อ Dataset นะครับแล้วกดปุ่ม New Datasets ได้เลยครับ
เลือกใช้งานเป็น S3 นะครับผม
จากนั้นระบบจะให้เราเลือก Data source จาก S3 Bucket นะครับ และก็ Upload ข้อมูลต่างๆ โดยใช้งานไฟล์ my_manifest.json ที่อยู่ใน S3 Bucket โดยให้เราเลือกเป็น URL นะครับ
ในส่วนของ URL เราสามารถหาได้จากการเข้าไปที่หน้า S3 Bucket ของเราและเลือกไฟล์ ตามด้วยกดปุ่ม Copy URL ครับดังที่เห็นตามรูปเลย
เมื่อกรอกข้อมูลทั้งหมดเสร็จแล้วให้กดปุ่ม Connect ได้เลยครับ หลังจากนั้นระบบแสดง Pop up นี้ขึ้นมาเพื่อยืนยันว่าสร้าง Dataset สำเร็จเรียบร้อยแล้ว ให้เราคลิ้กที่ปุ่ม Edit/Preview data เพื่อทดสอบการใช้งานตามรูปครับ
การทดสอบใช้งาน QuickSight
อันดับแรกให้เราทดสอบคิวรี่ข้อมูลว่า มีข้อมูลตรงกันกับไฟล์ที่อยู่ใน S3 หรือตามภาพ
ถ้ามีข้อมูลตรงกันแสดงว่าทำขั้นตอนทั้งหมดถูกต้องครบถ้วนครับ หลังจากนี้เราก็สามารถนำข้อมูลใน S3 มาใช้งานใน QuickSight ได้แล้วครับตามตัวอย่างในภาพเลย
สรุป
และนี้คือเนื้อหาการใช้งาน Amazon S3 ควบคู่กับ Amazon QuickSight ที่ผมอยากจะมาเสนอให้ทุกท่านได้อ่านกันครับ หวังว่าเนื้อหาในบล็อกนี้จะมีส่วนช่วยให้ผู้อ่านมีความรู้และความเข้าใจในการใช้งาน AWS มากขึ้นนะครับและขอขอบคุณ
บทความที่เกี่ยวข้องวิธีการใช้ S3 จาก EC2 และการใช้ AWS CLI S3 การสมัครบัญชี QuickSight ใน AWS การลบบัญชี QuickSight ใน AWS การรัน SQL ไปยังไฟล์ใน S3 ด้วย Glue กับ Athena